GBM
# Tag:
- Source/KU_ML2
GBM(Gradient Boosting Machine)
Boosting을 Gradient Descent를 이용하여 최적화하는 방식.
각 단계에서 새로운 학습기가, 이전 학습기의 예전 오류(Residual)을 학습하는 방식이다.
Algorithm
- 가장 맨 처음 사용될 base-leaner 를 찾는다.
- 어떤 model을 사용하는지에 따라 다르게 찾아진다. ANN이라면 Gradient Descent로, Decision Tree라면 Information Gain이 큰 것으로 찾게 될 것이다.
- 상수로 설정하기도 한다.
- 까지 반복하면서 아래의 과정을 반복한다.
- : 이전의 모델을 learning rate 에 대해 만든다.
- 각 데이터 에 대해 를 계산한다. 이는 일종의 negative residual이라고 볼 수 있다. 실제 정답과 예측 값의 차이에 대해, 그 차이가 커지는 방향의 값이므로 Loss를 줄이기 위해 학습해야 할 남은 부분(residual)의 negative라 할 수 있다.
- : residual과 예측 값의 Loss를 최소화하는 그러한 를 찾아 새로운 model 로 업데이트 한다.